Introducción Series de Tiempo

Santiago Bohorquez Correa

Universidad EAFIT
Escuela de Economía y Finanzas

  • Una serie de tiempo, corresponde a datos de un individuo u objeto recolectados en múltiples puntos de tiempo.
  • Este tipo de series puede ser utilizado para responder preguntas que no pueden ser resueltas con el uso de datos de corte transversal visto en Econometría 1.
  • Por ejemplo, ¿cual es el efecto causal en una variable de interés, \(Y\), del cambio de otra variable, \(X\), a través del tiempo?
  • ó ¿Cual es la mejor predicción del valor de una variable en el futuro?

Ejemplo: PIB

Ejemplo: Crecimiento PIB

  • La segunda gráfica muestra el crecimiento del PIB.
  • Este valor se calcula haciendo una transformación de la serie original del PIB.
  • Para estimar estos cambios necesitamos definir algunos conceptos básicos.

Rezago Variable

  • El primer rezago de una variable \(x_t\) se define como \(x_{t-1}\)
  • De la misma forma el rezago \(j\) de \(x_t\) es \(x_{t-j}\)
  • Cabe anotar que el rezago depende de la unidad de medida de la variable, e.g. si la variable esta medida anualmente \(t-1\) es el año anterior, pero si esta medida mensualmente, \(t-1\) es el mes anterior.

El operador de rezagos

Sea \(x_t\) una observación aleatoria de una serie de tiempo. Definimos el símbolo \(L\) como:

\[\begin{equation} L x_t = x_{t-1} \end{equation}\]

\(L\) es lo que en matemáticas es conocido como un operador. No es un parámetro o un número pero puede ser tratado como tal para operaciones algebraicas, e.g. \(L^2 x_t = L(L x_t) = L x_{t-1} = x_{t-2}\), en general \(L^n x_t = x_{t-n}\)

En adición, la expresión

\[\begin{equation} \alpha(L) = \alpha_0 + \alpha_1 L + \alpha_2 L^2 + \dots + \alpha_p L^p \end{equation}\]

es llamado el polinomio de orden p del operador de rezagos.

Y si lo aplicamos a un serie de tiempo, generamos una media móvil ponderada de la serie, i.e.

\[\begin{equation} \alpha(L)x_t = \alpha_0 + \alpha_1 x_{t-1} + \alpha_2 x_{t-2} + \dots + \alpha_p x_{t-p} \end{equation}\]

El operador de diferencia

Otro operador usado es

\[\begin{equation} \Delta = 1 - L \end{equation}\]

el operador de diferencia. \(\Delta x_t = x_t - x_{t-1}\) es el cambio en \(x\) en el periodo \(t\).

Es importante anotar la diferencia de notación entre

\[\begin{equation} \Delta_n = 1 - L^n \end{equation}\]

que el operador de la diferencia de \(n\) periodos, y

\[\begin{equation} \Delta^n = (1 - L)^n \end{equation}\]

el operador de la diferencia de orden \(n\), e.g. \(\Delta_2 x_t = x_t - x_{t-2}\) y \(\Delta^2 x_t= \Delta x_t - \Delta x_{t-1} = (x_t - x_{t-1}) - (x_{t-1} - x_{t-2})\)

  • La primera diferencia del logaritmo de \(x_t\) es \(\Delta \ln (x_t) = \ln (x_t) - \ln (x_{t-1})\).
  • El cambio porcentual de una serie de tiempo \(x_t\) entre los periodos \(t-1\) y \(t\) es aproximadamente \(100*\Delta \ln (x_t)\). Esta aproximación funciona mejor cuando el cambio porcentual es pequeño.
  • Es común usar esta aproximación para anualizar crecimientos, por ejemplo con datos trimestrales, se obtiene así, \(4*100*\Delta \ln (x_t)\).

Cambio porcentual

  • El cambio del logaritmo de una variable es aproximadamente igual al cambio proporcional de dicha variable, i.e. \(\ln (X + a) - \ln (X) \cong \frac{a}{X}\).
  • Ahora, remplazando \(X\) con \(x_{t-1}\) y \(a\) con \(\Delta x_t\). Y, sabiendo que, \(x_t = x_{t-1} + \Delta x_t\).
  • Esto significa que el cambio proporcional entre los periodos \(t\) y \(t-1\) es aproximadamente, \[\begin{align} \Delta \ln (x_t) = \ln (x_t) - \ln (x_{t-1}) & = \ln (x_{t-1} + \Delta x_t) - \ln (x_{t-1}) \\ & \cong \frac{\Delta x_t}{x_{t-1}} \end{align}\]

Estacionareidad

  • Las series de tiempo usan los datos pasados para cuantificar relaciones históricas.
  • Si el futuro es parecido al pasado, entonces estas relaciones históricas se pueden usar para hacer predicciones.
  • Si este no es el caso, entonces estas relaciones históricas no son fiables para hacer predicciones.
  • Esta idea es formalmente conocida como estacionariedad.

Estacionariedad débil: Una secuencia aleatoria \(\{x_t\}\) es estacionaria débil (o estacionaria en covarianza) si la media, varianza y la secuencia de autocovarianzas de orden \(j\) , para \(j>0\) son independientes de \(t\)

Estacionariedad Estricta:

Una secuencia aleatoria \(\{x_t\}\) es estacionaria estricta si para todo \(k>0\) la distribución conjunta de todas las colecciones \((x_t,x_{t+1},x_{t+2},\dots,x_{t+k})\) no depende de \(t\)

Estacionariedad estricta implica estacionariedad débil, pero lo contrario no siempre aplica.

En el caso especial de la distribución normal, estacionariedad débil si implica estacionariedad estricta.

Procesos No-estacionarios

  • La no-estacionariedad de una serie genera problemas de estimación de los parámetros. Ahora discutiremos tres de ellos:
    • El parámetro del proceso AR(1) es sesgado hacia cero.
    • El parámetro puede tener una distribución no-normal.
    • Obtenemos regresiones espurias.

Ejemplos

Procesos estacionarios en Tendencia

consideremos el siguiente proceso con tendencia y \(|\phi| < 1\),

\[\begin{equation} x_t = \delta + \alpha t + \phi x_{t-1} + \varepsilon_t \end{equation}\]

Si estimamos la media de este proceso vemos que depende del tiempo,

\[\begin{align*} E[x_t] & = E[\delta + \alpha t + \phi x_{t-1} + \varepsilon_t] \end{align*}\]

reemplazando obtenemos,

\[\begin{align*} E[x_t] & = E[\delta] + E[\alpha t] + E[\phi x_{t-1}] + E[\varepsilon_t] \\ & = \delta + \alpha t + \phi E[\delta + \alpha (t-1) + \phi x_{t-2} + \varepsilon_{t-1}] \\ & \vdots \\ & = \sum_{i=0}^n \phi^i (\delta + \alpha (t-i)) \end{align*}\]

dado que \(|\phi| < 1\) y \(n \rightarrow \infty\)

por lo tanto la media sería,

\[\begin{equation} E[x_t] = \frac{\delta + \alpha(\phi (t + 1) - t)}{(1-\phi)^2} \end{equation}\]

y dado que depende de \(t\) no sería estacionaria bajo nuestra definición de estacionariedad.

  • Sin embargo, noten que \(t\) cumple con la condición de ser un proceso deterministico, ya que sabemos perfectamente el valor que va a tomar con antelación.
  • Por lo tanto, podemos pensar en una transformación donde excluimos la tendencia deterministica de la serie permitiendo que la serie ya no dependa de \(t\).
  • A este tipo de procesos se les conoce como procesos estacionarios en tendencia. Y es común su uso para filtros en economía.

Paseo aleatorio

Ahora veamos el caso del proceso definido como,

\[\begin{equation}\label{eq:rw} x_t = x_{t-1} + \varepsilon_t \end{equation}\]

Este proceso es conocido como “random walk” o paseo aleatorio.

¿Es este proceso estacionario (débil)? Para esto miremos cual es la media y la varianza de este modelo.

\[\begin{align} E(x_t) & = E( x_{t-1} + \varepsilon_t) \\ & = E(x_{t-1}) + E(\varepsilon_t) \\ & = E[ ( x_{t-2} + \varepsilon_{t-1})] + E(\varepsilon_t) \\ & = E[ x_{t-2}] + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \\ & = E[(x_{t-3} + \varepsilon_{t-2})] + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \end{align}\]

Propiedades de la esperanza

\[\begin{align} E(X + Y) & = E(X) + E(Y) \\ E(k* X) & = k E(X) \text{ Para todo } k \in \mathbb{R} \\ E(X*Y) & = E(X) * E(Y) \text{ Sí y solo sí X y Y son independientes} \\ E(X) & = E[E(X | Y)] \end{align}\]

Si seguimos iterando hacia atrás obtenemos \[\begin{align} E(x_t) & = E[x_{t-n}] + E[\varepsilon_{t-(n-1)}] + \dots + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \\ \\ E(x_t) & = E[x_{t-n}] + 0 + \dots + 0 + 0 \\ E(x_t) & = E[x_{t-n}] \end{align}\]

Ahora hacemos lo mismo para la varianza, por facilidad de exposición asumimos que \(E[x_1] = 0\):

\[\begin{align} Var(x_t) & = E[(x_t - E[x_t])^2] \\ & = E[x_t^2] \\ & = E[(x_{t-1} + \varepsilon_t)^2] \\ & = E[(x_{t-1})^2] + 2E[ x_{t-1}\varepsilon_t] + E[\varepsilon_t^2] \\ & = E[x_{t-1}^2] + 0 + E[\varepsilon_t^2] \end{align}\]

Si seguimos iterando hacia atrás obtenemos

\[\begin{align} Var(x_t) & = E[( x_{t-2} + \varepsilon_{t-1})^2] + E[\varepsilon_t^2] \\ & = E[x_{t-2}^2] + E[\varepsilon_{t-1}^2] + E[\varepsilon_t^2] \\ \end{align}\]

Repitiendo este proceso, obtenemos

\[\begin{align} Var(x_t) & = E[x_{t-n}^2] + E[\varepsilon_{t-n}^2 ] + \dots + E[\varepsilon_{t-1}^2] + E[\varepsilon_t^2] \\ \end{align}\]

Suponiendo \(Var(x_1) = \sigma^2\), este proceso tiene varianza igual a,

\[\begin{equation} \gamma_{0,t} = t \sigma^2 \end{equation}\]

por lo cual el proceso es no estacionario.

Se deja como ejercicio, que la auto-covarianza es,

\[\begin{equation} \gamma_{j,t} = (t-j) \sigma^2 \end{equation}\]

Finalmente, la auto-correlación esta dada por,

\[\begin{align*} \rho_{j,t} & = \frac{\gamma_{j,t}}{\sqrt{\gamma_{0,t}}\sqrt{\gamma_{0,t-j}}} \\ & = \frac{(t-j)\sigma^2}{\sqrt{t \sigma^2} \sqrt{(t -j)\sigma^2} } \\ & = \frac{\sqrt{t-j}}{\sqrt{t}} \end{align*}\]

Sin embargo, podemos hacer uso del operador de diferencias para convertir esta serie en un proceso estacionario,

\[\begin{equation} w_t = \Delta x_t = x_t - x_{t-1} = \varepsilon_t \end{equation}\]

donde \(w_t\) es estacionario.

Acá pasamos de \(x_t\) a \(w_t\) pero siempre podemos hacer el proceso contrario en caso tal que deseemos conocer los valores de la serie original

\[\begin{align} x_t & = w_t + x_{t-1} \\ & = w_t + w_{t-1} + x_{t-2} \\ & \vdots \\ & = w_t + w_{t-1} + w_{t-2} + w_{t-3} + \dots \end{align}\]

por lo tanto el proceso \(x_t\) se obtiene sumando o integrando el proceso \(w_t\)

Por esta razón, el paseo aleatorio hace parte de la clase de modelos integrados.

Los modelos integrados son aquellos que se pueden obtener mediante suma o integración de modelos estacionarios

Pruebas de Raíces unitarias

Por este motivo se han diseñado diferentes pruebas estadísticas para asegurase de la estacionariedad de la serie. A continuación veremos cuatro de las pruebas más usadas:

  • Prueba de Dickey-Fuller.
  • Prueba de Dickey-Fuller aumentada.
  • Prueba de Phillips-Perron.
  • Prueba KPSS.

Prueba de Dickey-Fuller

Dickey y Fuller (1979) consideraron el modelo AR(1),

\[\begin{equation} x_t = \phi x_{t-1} + \varepsilon_t \end{equation}\]

Cuando \(\phi =1\) este proceso tiene raíz unitaria y se vuelve un paseo aleatorio.

Si substraemos \(x_{t-1}\) de ambos lados, obtenemos

\[\begin{equation}\label{df}\tag{*} \Delta x_t = (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]

Así, para testear la hipótesis de raíz unitaria, podemos testear que el coeficiente de \(x_{t-1}\) en la ecuación (*) sea igual a cero, contra la alternativa que es menor a cero

  • La regresión (*) es conocida como una regresión des-balanceada ya que la variable dependiente es I(0). i.e. estacionaria, y la variable independientes es I(1), i.e. integrada de orden 1, bajo la hipótesis nula.
  • Bajo la hipótesis alternativa, ambas variables son estacionarias volviendo la regresión balanceada de nuevo.

  • La forma obvia de testear la hipótesis de raíz unitaria en la ecuación (*) es usando el estadístico t para probar su significancia.
  • Sin embargo, el parámetro \(\phi - 1\) de esta ecuación no sigue una distribución normal, por lo cual p-values derivados de este supuesto estarían erróneos.
  • MacKinnon (1996) derivo las probabilidades asociadas a las distribuciones de este parámetro a través de simulaciones. Estos valores son los que reportan la mayoría de paquetes estadísticos.

Además de la ecuación (*), D-F también desarrollaron el método para casos con constante, i.e.

\[\begin{equation}\label{df2}\tag{+} \Delta x_t = \delta + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]

y tendencia

\[\begin{equation}\label{df3}\tag{^} \Delta x_t = \delta + \alpha t + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]

MacKinnon (1996) también estimo las probabilidades asociadas a los parámetros de (+) y (^). En economía por lo general testeamos usando (+)

Prueba de Dickey-Fuller Aumentado

Los resultados anteriores parten de un modelo AR(1), Dickey (1984) extendió estos resultados para proceso AR(p), de forma tal que lo podemos escribir como,

\[\begin{equation}\label{dfa}\tag{++} \Delta x_t = \beta x_{t-1} + \phi_1'\Delta x_{t-1} + \phi_2' \Delta x_{t-2} + \dots + \phi_{p-1}' \Delta x_{t-(p-1)} + \varepsilon_t \end{equation}\] donde \(\beta\) sigue la misma distribución que el parámetro de (*). También se puede extender para las ecuaciones (+) y (^)

Prueba de Phillips-Perron

  • Phillips y Perron (1988) desarrollaron un test basado en la ecuación (*), en el cual no se estima la correlación serial como en (++), pero utilizan un estimador no-parametrico consistente para heteroscedastidad y auto-correlación, a la Newey-West.
  • Este estimador sigue la misma distribución que D-F por lo cual los valores de MacKinnon (1996) pueden ser utilizados.
  • Sin embargo, Schwert (1989), y Perron y Ng (1996) mostraron que este estimador funciona peor que el D-F aumentado en muestras finitas, por lo cual D-F aumentado tiende a ser preferido.

Prueba KPSS

  • D-F y PP tienen como hipótesis nula la existencia de raíz unitaria. Estos test tienen el problema que carecen de poder para rechazar, por lo cual tienden a encontrar raíces unitarias cuando estas no existen.
  • Kwiatkowski, Phillips, Schimdt and Shin (1992) crearon un test donde la hipótesis nula es I(0), i.e. la serie es estacionaria.

Este test es basado en que si la serie es estacionaria y la diferenciamos una vez se vuelve de orden I(-1).

El estadístico considerado es entonces: \[\begin{equation} \hat{\eta}_{\mu} = \frac{1}{n^2 s_{nl}^2} \sum_{t=1}^n S_{t}^2 \end{equation}\]

donde, \(s_{nl}^2\) es un estimador consistente de \(\sigma^2\) y \(S_t = \sum_{s=1}^t (x_s - \bar{x})\)

Código R

La serie data es un AR(2) con intercepto y tendencia, es decir, no es estacionaria. Suponiendo que desconocemos esta información, para verificar esto, podemos las librerias de R urca y tseries. Ambas tienen implementadas todas las pruebas de raices unitarias vistas en clase, solo cambian en como muestran los resultados y en algunas opciones adicionales para algunas pruebas. Por conveniencia en este ejemplo usaremos la tseries.

De manera visual se observa que la serie es no estacionaria, aunque parece serlo en tendencia y con intercepto. Comprobamos este hecho con las diferentes pruebas. Cabe resaltar que para la libreria tseries, ADF (Dickey-Fuller aumentada) y PP (Phillips-Perron) son pruebas que soportan una serie con tendencia e intercepto. Por su parte, KPSS por default solo incluye el intercepto. Así, que se quiere probar si la serie es estacionaria sólo con intercepto o sin tendencia ni intercepto, debemos recurrir a la libreria urca.

ADF rechaza la hipótesis nula así que concluimos que la serie estacionaria.

library(tseries)
adf.test(data)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  data
## Dickey-Fuller = -10.78, Lag order = 9, p-value = 0.01
## alternative hypothesis: stationary

De igual manera, PP rechaza la hipótesis nula así que concluimos que la serie estacionaria.

pp.test(data)
## 
##  Phillips-Perron Unit Root Test
## 
## data:  data
## Dickey-Fuller Z(alpha) = -1838.5, Truncation lag parameter = 7, p-value
## = 0.01
## alternative hypothesis: stationary

Finalmente, kpss de manera predeterminada rechaza que la serie sea estacionaria pues no considera estacionareidad en tendencia, pero al cambiar el parámetro null por _“Trend” si la incluye y por tanto no encuentra evidencia de que la serie sea no estacionaria. En conclusión, tenemos evidencia para afirmar que la serie es estacionaria con intercepto y en tendencia.

kpss.test(data)
## 
##  KPSS Test for Level Stationarity
## 
## data:  data
## KPSS Level = 12.565, Truncation lag parameter = 7, p-value = 0.01
kpss.test(data, null = "Trend")
## 
##  KPSS Test for Trend Stationarity
## 
## data:  data
## KPSS Trend = 0.027295, Truncation lag parameter = 7, p-value = 0.1